Hier ist ein einfaches Regressionsmodell dargestellt. Das wahre Model ist: \[ y_i = \beta_0 + \beta_1*x_i \] Mit den Parametern \(\beta_0 = 2\) und \(\beta_1 = 1.7\) . Mithilfe der linaren Regression kann das Model geschätzt werden: \[ \hat{y}_i = \hat{\beta_0} + \hat {\beta_1} *x_i + \epsilon \] mit den geschätzten Parametern:
\(\hat{\beta_1} = \frac{\sum_{i=1}^N (x_i-\bar{x})(y_i-\bar {y})}{\sum_{i = 1}^N (x_i-\bar{x})^2}\) und \(\hat{\beta_0} = \bar{y}- \hat{\beta_1}*\bar{x}\)
Die Schätzung der Parameter mit R ergibt:
Call:
lm(formula = y ~ x, data = data)
Residuals:
Min 1Q Median 3Q Max
-1.76333 -0.32812 -0.00651 0.33084 1.66315
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 2.0159 0.0158 127.6 <0.0000000000000002 ***
x 1.7014 0.0163 104.4 <0.0000000000000002 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 0.499 on 998 degrees of freedom
Multiple R-squared: 0.9161, Adjusted R-squared: 0.916
F-statistic: 1.09e+04 on 1 and 998 DF, p-value: < 0.00000000000000022
(Intercept) = \(\hat{\beta_0}\) und x = \(\hat{\beta_1}\)